24 resultados para Vetores

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O universo das operações urbanas, e em última análise o permanente processo de RE construção das cidades, é o objeto do presente trabalho. Em especial, as ações que envolvem a utilização de museus como catalisadores ou vetores de transformação urbana. Para tanto, são analisados principalmente os casos dos museus Gugenheim, em Bilbao (Espanha), e Iberê Camargo, em Porto Alegre (RS). Utilizando uma experiência como contraponto da outra, observa-se que no caso da cidade espanhola o museu foi inserido como catalizador de uma operação urbana – o Projeto de Revitalização de Bilbao –, oposto do que ocorre em Porto Alegre, onde o museu é inserido na cidade sem maiores preocupações de promover ações de dinamização e transformação urbana. Complementando a análise, também serão descritos os casos de Fortaleza (CE) – Centro Cultural Dragão do Mar –, e do Rio de Janeiro (RJ) – Guggenheim Rio. A abordagem, dentre as diversas possíveis, se apoia em três aspectos principais: em primeiro lugar, procura-se, por meio de revisão bibliográfica, estabelecer conceitos/nomes para os diferentes tipos operações urbanas, que via de regra iniciam-se com o prefixo RE; logo situar os museus, tanto por sua natureza, mas sobretudo, pela importância que assumiram como atratores de público e o impacto que causaram nos usos circundantes e na dinâmica de ocupação do solo urbano; por fim, como a ótica pretendida é o da cidade como bem público levantam-se as estratégias passíveis de utilização pelo Poder Público para promover o desenvolvimento urbano, recuperando os investimentos realizados com a captura de mais valias e rendas fundiárias urbanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese nós estudamos e provamos diversos teoremas de existência, unicidade e caracterização, dos pontos e dos valores críticos da conexão riemanniana de uma variedade riemanniana compacta, orientável, agindo nos espaços dos campos diferenciáveis da variedade com norma L2 um e com norma pontual um.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modernidade exige a evolução das Polícias Estaduais, principalmente em relação a aspectos que melhor beneficiem a sociedade, considerando-se os vetores da economia, da execução completa de atividades e de um sistema de administração mais qualificado. As Polícias Militares e as Civis requerem formas de gestão que melhor qualifiquem as relações internas e externas, em busca da racionalização e da eficiência. A par disso, é fundamental que as ações policiais se desenvolvam com estrito respeito à Constituição e às leis. Para o desenvolvimento desse tema, o autor examinou a legislação nacional e estadual referente à Segurança Pública, bem como teorias de administração e, em especial, os sistemas de administração definidos por LIKERT. A pesquisa utilizou metodologia qualificativa e quantitativa. A primeira foi usada para o tratamento dos dados coletados nas questões fechadas e, a Segunda, para a análise das palavras citadas. O instrumento utilizado para a coleta de dados foi um questionário contendo 51 (cinqüenta e uma) questões objetivas e 3 (três) questões abertas, tendo sido aplicado a 201 (duzentos e um) servidores, dos quais 74 (setenta e quatro) policiais civis e 124 (cento e vinte e quatro) policiais militares. A pesquisa quantitativa concluiu que os oficiais da Brigada Militar e os delegados da Polícia Civil exercem uma chefia identificada pelo sistema de Likert como sendo autoritária-benévola. Não houve diferença significativa entre as médias de percepção dos servidores da PC e da BM sobre os sistemas de chefia existentes ou idealizados. Ficou identificado que o sistema praticado (real) pela chefia é significativamente diferente do idealizado (ideal) pelos servidores da PC ou da BM. A análise qualitativa confirmou os resultados, permitindo identificar que, nas citações de palavras qualificadoras sobre o chefe, o enfoque com o maior percentual de freqüência foi autoritária, com 78% (setenta e oito por cento) das palavras citadas por PMs ou PCs, contra 22% (vinte e dois por cento) do sistema dito participativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Além de armazenar e distribuir o aço líquido para os moldes, uma das funções do distribuidor de lingotamento contínuo é a flotação e separação das inclusões para uma melhor qualidade do produto final. A eficiência e otimização deste processo requer o conhecimento das características do escoamento do aço líquido dentro do distribuidor. Esta dissertação trata do modelamento matemático do escoamento do aço num distribuidor DELTA-T, sem e com modificadores de fluxo e inibidores de turbulência, em condições isotérmicas e não isotérmicas em diferentes situações de vazão e condições térmicas. O software CFX-4 foi utilizado para resolver as equações de movimento, continuidade e transferência de calor utilizando modelo k-ε de turbulência para uma geometria tri-dimensional. A validação de modelo matemático com o modelo físico foi feita através da comparação de planos de laser entre os vetores de velocidade. Para a trajetória do escoamento foi utilizado no modelo físico a técnica do corante. Para a obtenção das curvas DTR – distribuição de tempos de residência no modelo físico foi usada a técnica de injeção de pulso, enquanto que no modelo numérico esta mesma técnica foi aplicada para um escoamento multifásico homogêneo. O perfil de temperatura calculado do aço na superfície foi comparado com medidas experimentais realizadas na usina O objetivo deste trabalho é caracterizar o escoamento do aço através dos perfis de velocidade, energia cinética de turbulência, perfis de temperatura e curvas de distribuição de tempos de residência, avaliando os tempos mínimo e médio de residência e as porções de volumes característicos. Os resultados obtidos indicam que o uso de modificadores de fluxo e inibidores de turbulência são eficientes no controle da emulsificação. É observado que o escoamento apresenta diferenças quando tratado isotermicamente e não isotermicamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

São apresentados resultados obtidos a partir de difração de raios-X (DRX), difração de nêutrons (DN), susceptibilidade magnética (X(T)), magnetização (M(H)), espectroscopia Mõssbauer (EM) e calor específico (Cp) de amostras do sistema FexCo1-x Ta206. Difratogramas de DRX e de DN e as curvas M(H) indicam que as amostras estão bem cristalizadas e homogêneas, e que o sistema é uma solução sólida para toda faixa de substituição Fe -> Co. Os ajustes de DN revelam fases magnéticas com dois vetores de propagação (::I::~~ ~) para o CoTa206 e (~ O ~) e (O ~ ~) para o FeTa206' A segunda configuração permanece a mesma para as amostras ricas em Fe (0,46 :S x < 1,00), enquanto que as amostras ricas em Co (0,09 :S x < 0,46) apresentam configuração magnética indexada pelos vetores de propagação (::I::~~ O). O diagrama de fase temperatura vs. x exibe um ponto bicrítico em torno de T = 4,9 K e x = 0,46. A temperatura de Néel máxima das região rica em Fe é 9,5 K, e 7,1 K para a região rica em Co. No ponto bicrítico, o sistema mostra coexistência de ambas estruturas magnéticas. Esse comportamento bicrítico é interpretado como sendo induzido pelas competições entre as diferentes fases magnéticas e pela variação das propriedades cristalográficas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho discute o estabelecimento de indicadores de desempenho para uma organização pública, segundo os preceitos do Balanced Scorecard. Tem por objetivo geral o estabelecimento de um conjunto equilibrado de indicadores de desempenho. Está calcado em uma pesquisa bibliográfica, abrangendo obras clássicas e trabalhos científicos referentes ao Balanced Scorecard. Apresenta um Estudo de Caso, relativo à Coordenação da Receita do Estado do paraná, órgão da Administração Pública, voltado para a arrecadação de tributos estaduais. O estudo envolve pesquisas dirigidas a funcionários que ocupam e/ou já ocuparam diversos cargos dentro da organização, denominados de "Grupo Pensamento Convergente", cujas opiniões foram colhidas por meio de questionários. O trabalho detalha e analisa o processo de elaboração da Visão, da Missão, dos Objetivos Estratégicos, dos Vetores de Desempenho e das Ações Estratégicas correspondentes.Em conjunto, esses elementos caracterizam um arquétipo, que possibilita uma visão geral de todo processo, suportando e direcionando as decisões gerenciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho avalia a hipótese do Dividend Discounted Model ou Present Value Model, este modelo estabelece que o preço das ações é dado pelos dividendos futuros esperados antecipados por uma taxa apropriada de desconto. Utilizando dados de preços e dividendos de ações brasileiras, para os bancos Bradesco e Itaú, e a metodologia de vetores auto-regressivos, VAR, testamos se este modelo é respaldado empiricamente pelo comportamento dessas ações isoladamente. Como resultado geral temos uma aceitação de alguns aspectos não muito cruciais do modelo e uma forte rejeição da hipótese de que os dividendos sejam o fundamento do preço dessas ações, o que contradiz trabalhos anteriores realizados com a mesma metodologia para índices de ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi realizado a partir da observação de uma sucessão de enchentes ocorridas entre os anos de 1936 a 1997, na cidade de Camaquã/RS. Diante da constatação da ocorrência destes fenômenos, fez-se necessário a realização de um estudo mais detalhado e de cunho científico das prováveis causas destas ocorrências. Aliado a isto, foi constatado que as providências adotadas pelas autoridades competentes, tanto da parte técnica quanto das ações políticas, não obtiveram resultados satisfatórios. Visando esclarecer a comunidade local à questão das enchentes do ponto de vista técnico, este estudo apresenta propostas de transformação futura dessa questão por meio de informação, do planejamento participativo, pela consolidação das organizações sociais e por uma nova mentalidade face à água. Partindo-se da experiência de casos similares, procurou-se caracterizar e avaliar os impactos causados pelas enchentes, tendo como objetivos: a elaboração de um mapa de riscos, a definição da cota máxima e mínima das inundações, propor ações mitigadoras frente aos desastres, fornecer subsídios para atualização do Plano Diretor Urbano e auxiliar a Defesa Civil na elaboração de um plano de ação para situações de calamidades públicas, assim como também demonstrar que a ocupação desordenada de áreas urbanas compõe parte das causas das inundações O processo de investigação foi desenvolvido de uma forma empírica, onde a metodologia foi sendo criada pela observação da ocorrência de cheias in loco, auxiliada por levantamentos fotográficos, entrevistas junto a comunidade e análise de documentação histórica que comprovasse tais fenômenos. O plano de pesquisa foi criado a partir da constatação da necessidade de haver um gerenciamento adequado para a questão das inundações dentro do perímetro urbano, através de respostas que fossem convincentes e tecnicamente corretas.Por meio da utilização de levantamentos planialtimétricos elaborou-se um mapa onde foram identificadas áreas de risco em diferentes bairros de Camaquã, fazendo-se também a simulação do avanço da lâmina d’água dentro do perímetro urbano. Os aspectos da hidrogeologia local, caracterizados pelas bacias de contribuição do Arroio Duro, tiveram importância decisiva no desenvolvimento deste estudo, assim como também a análise das questões ambientais, dos problemas de drenagem urbana e de infraestrutura. Apresenta-se um conjunto de propostas que visam minimizar os impactos causados pelas enchentes por meio de ações preventivas, definindo cotas mínimas de alagamentos e identificando áreas de risco dentro do perímetro urbano, assim como, também, alternativas de moradias em áreas alagadiças e um modelo de sinalização da altura da lâmina d’água. Evidenciou-se que as prováveis causas das enchentes não foram apenas influenciadas por vetores naturais, mas, também, pela interferência antrópica no ambiente natural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.